Чатботовете представляват риск за демокрацията
Писателят е помощник в Института за човешки центриран изкуствен интелект на Станфордския университет и Центъра за киберполитика. Тя е създател на „ The Tech Coup “
Малко преди изборите в Холандия на 29 октомври органът за отбрана на данните на Холандия издаде съществено предизвестие: не се доверявайте на чатботове за препоръки при гласоподаване. Предупрежденията за генеративни фалшификации на AI, които въздействат на изборите, може да са отшумели, само че рискът от AI за демокрацията не. Всъщност потреблението на AI принадлежности, а не злоупотребата с тях, може да е най-голямата опасност за жителите до момента.
Органът за отбрана на данните предизвести, че чатботовете постоянно предлагат едни и същи две партии, обединявайки левите гласоподаватели със Зелената лейбъристка партия и гласоподавателите отдясно с крайнодясната Партия на свободата. Други партии не участваха в резултатите. Чрез свръхпредставянето на тези две партии в отговорите, чатботовете може да са съдействали за политическа поляризация.
За подтекст: имаше не по-малко от 27 партии, които показаха претенденти на изборите и има 15 партии, показани в Народното събрание. Холандската система е изцяло друга от американската двупартийна конструкция.
След тестване на ChatGPT, Mistral, Grok и Gemini, холандският орган за отбрана на данните предизвести, че препоръките са „ ненадеждни и явно пристрастни “. „ Чатботовете ... пропускат задачата “, сподели Моник Вердие, зам.
Милиони холандски гласоподаватели нормално се съветват с онлайн инструментите за гласоподаване, с цел да избегнат нуждата да четат голям брой дълги партийни стратегии. Тези принадлежности за изборна информация им оказват помощ да приоритизират политическите въпроси и да разпознават партиите по съответния метод. Те са особено предопределени да подкрепят гласоподавателите и са транспарантни. Когато политическите партии имат чувството, че техните политически проблеми са показани неправилно в дизайна на инструмента, те знаят на кого да се обадят.
Създателите на генеративни AI чатботове не са транспарантни по този метод. Някои от провокациите, пред които са изправени огромните езикови модели във връзка с точността, могат да се обяснят с обстоятелството, че те са замразени във времето: подготвени върху набори от данни, които може да не са обновени. Ботовете, които тествах преди изборите в Холандия, се позоваха на партийни стратегии от предходния конкурс и не знаеха, че се организират предварителни избори. На въпроса за датите Le Chat на Mistral допусна, че те няма да се организират до 2027 година
Компаниите с изкуствен интелект дадоха обещание да не поддържат потреблението на техните ботове за избор на глас, само че в 99,9 % от 21 000 тестови запитвания, извършени от органа за отбрана на данните, те по този начин или другояче дадоха отговор с предложени политически партии. Ако приемем, че AI фирмите са положили най-хубавото от себе си, въпросът е за какво не могат да предотвратят потреблението на своите ботове по този метод.
Компаниите може скоро да почувстват следствията от това, че не са съумели да подсигуряват, че са налице подобаващи смекчаващи ограничения. Законът за изкуствения разсъдък на Европейски Съюз отбелязва системите за изкуствен интелект, предопределени да бъдат употребявани за повлияване на резултата от избори или референдум или държание при гласоподаване, като „ високорискови “.
Обществото се нуждае от по-задълбочено схващане и по-голяма бистрота на рекомендациите за изкуствен интелект и обществените медии.
В момента ни липсват прозрения, които биха могли да бъдат основни за разкриването на преднамерена или непреднамерена операция – изключително в този момент, когато младежите имат достъп до вести и друга информация най-вече онлайн.
Разбирането по какъв начин онлайн информацията стимулира държанието може да ни помогне да хвърлим светлина върху това за какво за първи път от десетилетия младежите в демократичните общества са по-консервативни. И за какво те по-малко поддържат демократичната народна власт като политическа система.
Можем единствено да се надяваме повече надзорни органи и регулатори да правят проби, сходни на тези на холандците. Такива опити могат да разкрият пристрастия и неточности във всичко - от потребителски избор до медицински препоръки. Урокът, теоретичен от Холандия, е какъв брой зле се показват множеството известни чатботове. Нашето проучване на това не би трябвало да стопира до избори.